首页> 外文OA文献 >ScanNet: Richly-annotated 3D Reconstructions of Indoor Scenes
【2h】

ScanNet: Richly-annotated 3D Reconstructions of Indoor Scenes

机译:scanNet:室内场景的富有注释的3D重建

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

A key requirement for leveraging supervised deep learning methods is theavailability of large, labeled datasets. Unfortunately, in the context of RGB-Dscene understanding, very little data is available -- current datasets cover asmall range of scene views and have limited semantic annotations. To addressthis issue, we introduce ScanNet, an RGB-D video dataset containing 2.5M viewsin 1513 scenes annotated with 3D camera poses, surface reconstructions, andsemantic segmentations. To collect this data, we designed an easy-to-use andscalable RGB-D capture system that includes automated surface reconstructionand crowdsourced semantic annotation. We show that using this data helpsachieve state-of-the-art performance on several 3D scene understanding tasks,including 3D object classification, semantic voxel labeling, and CAD modelretrieval. The dataset is freely available at http://www.scan-net.org.
机译:利用监督式深度学习方法的关键要求是大型,标记数据集的可用性。不幸的是,在对RGB-Dscene的理解的背景下,几乎没有数据可用-当前的数据集覆盖了较小范围的场景视图,并且语义注释有限。为了解决这个问题,我们引入了ScanNet,这是一个RGB-D视频数据集,其中包含1513个场景中的250万个视图,并标注了3D相机姿势,表面重建和语义分割。为了收集这些数据,我们设计了一个易于使用且可扩展的RGB-D捕获系统,该系统包括自动表面重建和众包语义注释。我们证明了使用此数据有助于在一些3D场景理解任务上实现最先进的性能,包括3D对象分类,语义体素标注和CAD模型检索。该数据集可从http://www.scan-net.org免费获得。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号